Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
So, grüß Gott zusammen. Schauen wir mal, was wir in dieser kurzen Zeit, die noch verblieben ist,
noch schaffen können. Wir hatten angefangen uns mit Interpolation, genauer mit Polynomen
Interpolation zu beschäftigen, was an sich etwas sehr einfaches ist. Man stellt wie unsere Notation
N plus 1 Interpolationsbedingungen, hat ein Polynom enten grades, das heißt also im N plus 1
dimensionalen Raum. Das ganze ist also ein lineares Problem mit gleich vielen Bedingungen
wie Unbekannten und da erwarten wir eine eindeutige Lösung und dem ist auch so. Wir können diese
Lösung auf ganz verschiedene Arten darstellen, weil wir eben ganz verschiedene Basen hier konkret
im Polynomraum wählen können und eine Variante ist basiert auf den dividierten Differenzen. Ich
habe hier nochmal die vorläufige Definition aufgezeigt. Wir gehen also aus von einem Datensatz
aus N plus 1 Argumenten x i und Funktionswerten y i. Das sind die Werte, die interpoliert werden
sollen und wir bilden sozusagen in Nachbildung der Ableitungen sukzessive Differenzenquotienten
daraus. Das heißt wir starten mit den Funktionswerten selbst, bilden dann so was wie die ersten
Differenzen, aus diesen Differenzen weitere Differenzen und die rekreusive Definition,
die wir erstmal zugrunde gelegt haben, ist hier die folgende. Die dient jetzt erst einmal nur,
den nachfolgenden Satz letztlich zu beweisen. Man kann das Äquivalent ein bisschen schöner
umformen, was ich gleich mache. Also wir starten. Die Anzahl der Werte, die hier in Klammern stehen,
die geben die Ordnung an. Also ein Wert ist Ordnung 0, M plus 1 Werte sind Ordnung M,
Ordnung 0 sind einfach die zu interpolierenden Y-Werte und Ordnung M plus 1 entsteht aus den
Werten der Ordnung M, dadurch dass ich erst einmal hier in der Abfolge den zweiten Wert von
links gesehen weglasse, der taucht mit Minus hier unten wieder auf und dann bilde ich die
Differenz mit einer Differenz eine Ordnung tiefer, wo ich den ersten Wert weglasse und
der taucht hier unten wieder auf. Mit dieser Definition, das ist jetzt relativ schlicht,
deswegen will ich es auch nicht im Detail machen, kann man nun sich überlegen, das ist genau die
Darstellung der Koeffizienten bezüglich dieser neuen alternativen Basis, die wir hier haben.
Also wir sind ja gestartet mit der Monombasis, die weiß gar nichts von den Interpolationsbedingungen.
Dementsprechend ist ein volles Gleichungssystem zu lösen. Dann sind wir ins andere extrem verfallen
und haben die Lagrangian Basispolynome genommen, die wissen so viel von der Interpolationsbedingung,
dass gar nichts mehr zu lösen ist, aber dementsprechend ist der Aufwand bei der
Auswertung und hier sind wir irgendwie dazwischen. Hier haben wir als Basisfunktionen für das
Polynom n plus 1 Grades, starten wir mit der 1, dann nehmen wir den Linearfaktor x minus x0,
den quadratischen Anteil x minus x0, x minus x1 und so weiter, bis wir am Schluss alle zu
interpolierenden Werte bis auf den letzten hier haben. Das heißt wiederum, wenn ich mit solchen
Funktionen meine Interpolationsbedingungen schreibe, weil die Funktion ja die Eigenschaft haben,
dass sie bis zu einem gewissen Stelle an den Interpolationsstellen verschwinden,
die Konstante verschwindet natürlich nirgendwo, die dann die nächste verschwindet bei x0,
die nächste bei x0, bei x1. Die Folge ist also, das Gleichungssystem, was wir zu lösen haben,
ist ein gestaffeltes Gleichungssystem, ein 3x-System. Deswegen ist der Aufwand zwar nicht
völlig auf 0 oder auf Groß o von n, je nachdem wie man das sieht, reduziert, wie bei den Lagrangian
Basispolinomen, aber ist eben doch anders als beim Monomansatz. Wir haben jetzt hier ein Aufwand von
n² und das werden wir jetzt auch noch mal sehen, oder haben wir hier jetzt auch noch mal gesehen,
mit dieser Behauptung, das sind die Werte, die wir ausrechnen wollen, denn um diese Werte
rekoasiv, wir machen das gleich noch mal im Detail, über dieses Rekursionsschema auszurechnen,
haben wir eben Groß o von n²-Operationen. Wir müssen so eine, wir sehen es gleich noch mal.
Okay, also das ist, und der Vorteil ist eben, aber das ist mehr aus der Zeit des Handrechts,
hat ein paar theoretische Effekte, die wir auch ausnutzen wollen. Der Vorteil ist eben,
wir haben Basispolinome, die eben jetzt zwar von den Stützstellen abhängen, aber nicht von allen.
Das heißt also, wenn wir jetzt eine neue Stützstelle hinzunehmen wollen, dann können
wir die alten Anteile sozusagen behalten. Und so funktioniert letztendlich auch der Beweis für
diese Identität. Schauen wir uns noch mal an. Ja, als erstes können wir jetzt aufgrund dieser
Presenters
Zugänglich über
Offener Zugang
Dauer
01:33:19 Min
Aufnahmedatum
2013-01-28
Hochgeladen am
2013-08-08 00:59:52
Sprache
de-DE
- Fehleranalyse (Gleitpunktdarstellung, Rundung, Fehlerfortpflanzung, Kondition, Gutartigkeit)
- Polynominterpolation (Dividierte Differenzen, Interpolationsfehler)
- Asymptotische Entwicklungen und Extrapolation (Richardson-Extrapolation)
- Numerische Integration (Newton-Cotes-Formel, Romberg-Integration, Gaußsche Integration)
- Lineare Gleichungssysteme (Gaußscher Algorithmus, LR-Zerlegung, Cholesky-Zerlegung, Matrixnormen, Fehlerabschätzungen)
- Nichtlineare Gleichungssysteme (Fixpunktsätze, Konvergenzordnungsbegriffe, Newton-Verfahren, iterative Verfahren für LGS)
- Lineare Ausgleichsrechnung
- etc.